Local Interpretable Model-Agnostic Explanations, kurz LIME, kommt im Bereich der erklärbaren Künstliche Intelligenz (Explainable Artificial Intelligence) zum Einsatz. Mithilfe von LIME lässt sich das Vorhersageverhalten von Machine-Learning-Modellen interpretieren und erklären. LIME ist modellagnostisch und verwendet interpretierbare Ersatzmodelle, um sich der Vorhersage einer Black-Box-KI anzunähern.
LIME ist das Akronym für Local Interpretable Model-Agnostic Explanations. Es handelt sich um ein Verfahren aus dem Bereich der erklärbaren Künstlichen Intelligenz (Explainable Artificial Intelligence – XAI). LIME ist modellagnostisch und macht das Vorhersageverhalten eines beliebigen Machine-Learning-Modells interpretierbar und besser erklärbar. Das Verfahren verwendet ein lokales, interpretierbares Modell, um sich einer Vorhersage anzunähern. Local Interpretable Model-Agnostic Explanations wurde im Jahr 2016 im Paper „Why Should I Trust You? – Explaining the Predictions of Any Classifier“ vorgestellt. Die Autoren der Veröffentlichung waren Marco Tulio Ribeiro, Sameer Singh und Carlos Guestrin von der University of Washington.
Explainable Artificial Intelligence
Explainable Artificial Intelligence (XAI), im Deutschen „erklärbare Künstliche Intelligenz“, ist ein Forschungsgebiet aus dem Bereich der Künstlichen Intelligenz (KI). Das Gegenteil einer erklärbaren Künstlichen Intelligenz ist die sogenannte Black-Box-KI mit für den Menschen intransparenten inneren Abläufen und nicht nachvollziehbaren Entscheidungs- und Vorhersageprozessen.
Ziel des Forschungsgebiets XAI ist es, das Verhalten von Machine-Learning-Modellen interpretierbar und transparent zu machen. Eine XAI ist eine Künstliche Intelligenz, deren Verhalten, Vorhersagen und Ergebnisse für den Benutzer transparent sind und erklärt werden können. Das Vertrauen von menschlichen Nutzern in Anwendungen mit Künstlicher Intelligenz soll dadurch gestärkt werden. Das sorgt für mehr Akzeptanz der Künstlichen Intelligenz und der von KI-Anwendungen und ML-Modellen getroffenen Vorhersagen und erzielten Ergebnisse. Weitere Ziele der erklärbaren Künstlichen Intelligenz sind ein verantwortungsvoller Umgang mit KI, ethische Fairness und die Einhaltung von Gesetzesvorgaben und Compliance-Richtlinien.
Um das Verhalten einer Black-Box-KI, beispielsweise eines Deep-Learning-Modells, erklärbar zu machen, können verschiedene Verfahren und Techniken zum Einsatz kommen. Neben Local Interpretable Model-Agnostic Explanations existieren weitere Verfahren wie SHAP (SHapley Additive exPlanations), DALEX (Descriptive mAchine Learning EXplanations), LPR (Layer-wise Relevance Propagation) und andere. Die Verfahren bieten Lösungen für den Zielkonflikt zwischen Leistungsfähigkeit einer KI und der Nachvollziehbarkeit ihrer Arbeitsergebnisse. Je performanter ein KI-Modell ist, desto weniger nachvollziehbar sind oft die inneren Abläufe des Modells. Im Gegensatz dazu erreichen transparente Modelle mit erklärbaren inneren Abläufen häufig nicht die gewünschte Leistungsfähigkeit.
Das Funktionsprinzip von LIME
Zur Erklärung der grundsätzlichen Funktionsweise von LIME lohnt ein kurzer Blick in die Langbezeichnung des Verfahrens „Local Interpretable Model-Agnostic Explanations“. „Model-Agnostic“ bedeutet, dass LIME für beliebige Machine-Learning-Modelle anwendbar ist. Das Verfahren betrachtet jedes Modell, unabhängig von der Komplexität als Black Box, und benötigt kein Einblick in das Innere des Modells. Mit „interpretable“ ist gemeint, dass die von LIME gelieferten Erklärungen für Menschen einfach zu verstehen sind. Das Wort „local“ schließlich bezieht sich darauf, dass LIME das Verhalten eines komplexen Modells nicht in allgemein globaler Form, sondern anhand einer ganz konkreten Vorhersage versucht zu verstehen und erklärbar zu machen.
Die grundsätzliche Funktionsweise von LIME lässt sich etwas vereinfacht dargestellt folgendermaßen beschreiben:
LIME verändert für eine konkrete Vorhersage des zu erklärenden KI-Modells die Eingabedaten, indem es Störungen einbaut und den Input dadurch leicht abändert. Anschließend wird beobachtet, welchen Einfluss der veränderte Input auf das Ergebnis des KI-Modells hat. LIME testet quasi, was mit den Ergebnissen passiert, wenn Variationen der Eingabedaten in das KI-Modell eingespeist werden. Mit diesen Informationen trainiert LIME für die konkret zu untersuchende Vorhersage ein lokales, leicht zu interpretierendes Modell. Das kann beispielsweise ein Entscheidungsbaum oder ein lineares Modell mit relativ wenig Koeffizienten sein.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Das lokale Modell wird auch als Surrogate Model (Ersatzmodell) bezeichnet. Über das lokale Ersatzmodell und die Gewichtungen der Eingabedaten lässt sich die Bedeutung der einzelnen Bestandteile des Inputs für das Zustandekommen eines Ergebnisses erkennen und interpretieren. Das Ersatzmodell funktioniert aber immer nur für die konkret ausgewählte Instanz und kann nicht das globale Verhalten eines komplexen Modells erklären.
Local Interpretable Model-Agnostic Explanations ist für verschiedene Daten anwendbar. Es kann für Modelle und Klassifikatoren zum Einsatz kommen, die mit Bild-, Text- oder tabellarischen Daten arbeiten. Bei einem Bildklassifikator beispielsweise verändert LIME die Eingabedaten so, dass sie nur Bildausschnitte des ursprünglichen Bilds enthalten. LIME beobachtet das Ergebnis des Klassifikators und trainiert ein einfacheres lineares Modell mit den veränderten Eingabedaten und Klassifizierungsergebnissen. Mithilfe des einfachen, lokalen Modells lassen sich die Bildbereiche herausfinden und darstellen, die die höchste Relevanz für ein Klassifizierungsergebnis haben.
Im Textbereich werden durch zufälliges Weglassen von Wörtern verschiedene Versionen des ursprünglichen Eingabetextes erzeugt und in das zu erklärende komplexe Modell eingespeist. Die Relevanz bestimmter Schlüsselwörter für das Zustandekommen eines bestimmten Ergebnisses lässt sich anschließend über ein einfaches, lokales Model, das mit den veränderten Eingabedaten und zugehörigen Ergebnissen trainiert wurde, darstellen.
Vor- und Nachteile von LIME
Vorteile von LIME sind:
macht das Vorhersageverhalten und Entscheidungsprozesse von komplexen KI-Black-Box-Modellen interpretierbar
liefert für Menschen leicht zu verstehende Erklärungen
ist unabhängig vom zu erklärenden Modell anwendbar (modellagnostisch)
steigert das Vertrauen in Künstliche Intelligenz
trägt dazu bei, Bias oder Fehler in Modellen zu finden und beseitigen
ist im Vergleich zu einigen anderen Verfahren weniger rechenintensiv und schneller
Als Nachteile von Local Interpretable Model-Agnostic Explanations lassen sich aufführen:
ist nur auf konkrete Instanzen und Vorhersagen eines KI-Modells anwendbar und kann nicht das globale Modellverhalten erklären
Erklärungen sind stark vom Veränderungsprozess der synthetisch generierten Variationen der Eingabedaten abhängig
unter Umstände werden komplexe Vorhersageprozesse zu stark vereinfacht